Site cover image

Site icon imageSen(Qian)’s Memo

This website is Donglin Qian (Torin Sen)’s memo, especially about machine learning papers and competitive programming.

2015-ICML-Learning from Corrupted Binary Labels via Class-Probability Estimation

https://proceedings.mlr.press/v37/menon15.html

Introduction

ラベルがCorruptedとは、Noisy Labelを指すが、PU Learningも含むというように、意地の悪いラベルのついたもので学習するということ。

この論文では以下の2つのことが分かった。

  • BERという、偽陰性率(元々PなのにNというラベルに)と偽陽性率(元々NなのにPになる)の平均という指標がある。CorruptedなラベルでBERの最小化をすれば、どれほどラベルがCorruptedしてるかが不明でも問題がない。
  • 不明でも問題ないというが、Corruptedしてる割合などがわかれば、おのずと目的関数に補正をかけて学習ができる。

問題設定

  • データはxRd\mathbf{x} \in \mathbb{R}^d。ラベルはY={1,+1}Y=\{-1, +1\}だる。
    • Cleanなラベル別の分布はP=p(xy=+1),Q=p(xy=1)P=p(\mathbf{x}|y=+1), Q=p(\mathbf{x}|y=-1)である。
  • Class Priorはπ=Pr(y=+1)\pi = Pr(y=+1)
  • 予測したいのは学習器η:xPr(y=+1x)\eta : x \to Pr(y=+1|\mathbf{x})である。
    • 学習器の予測は、学習器ssと閾値ttによって、sign(s(x)t)\text{sign}(s(\mathbf{x}) - t)でラベルを予測する。
    • 予測した結果について、precision, 偽陽性率、偽陰性率を指標として計算する
  • Regretとは、実際に得られた分類器と理想の分類器の性能の差
  • 学習するためには、より大きく誤った予測には大きな損失を与える必要がある。それは損失関数を使う。
  • 条件付きベイズリスク(Conditional Bayes Risk)とは、あるクラスkkについての確率η\etaについての期待値。
ηl1(f(x))+(1η)l1(f(x))\eta l_1(f(x)) + (1 - \eta)l_{-1}(f(x))
  • 強適合損失関数(Strongly Proper Composite Loss) 損失関数が凸関数であるだけでなく、ある定数λ\lambdaで保証できるものらしい。